在过程挖掘中,发现技术使从事件日志自动构建业务流程模型成为可能。但是,结果通常无法达到模型复杂性及其拟合精度之间的平衡,因此需要进行手动模型调整。该论文提出了一种方法开采的方法,该方法基于模型复杂性和适应性的组合评估为模型优化提供半自动支持。为了在两种成分之间取得平衡,提出了一种模型简化方法,该方法基本上在所需的粒度下抽象了原始模型。此外,我们介绍了一个元态的概念,该元素的周期崩溃了,该循环可以潜在地简化模型并解释模型。我们旨在使用来自医疗保健领域不同应用程序的三个数据集证明技术解决方案的功能。它们是针对COVID-19大流行期间动脉高血压和医疗保健工作人员工作流动的患者的远程监测过程。案例研究还调查了各种复杂性度量和解决方案应用方式的使用,从而提供了有关改善过程模型中改善可解释性和复杂性/适应性平衡的更好实践的见解。
translated by 谷歌翻译
Artificial intelligence methods including deep neural networks (DNN) can provide rapid molecular classification of tumors from routine histology with accuracy that matches or exceeds human pathologists. Discerning how neural networks make their predictions remains a significant challenge, but explainability tools help provide insights into what models have learned when corresponding histologic features are poorly defined. Here, we present a method for improving explainability of DNN models using synthetic histology generated by a conditional generative adversarial network (cGAN). We show that cGANs generate high-quality synthetic histology images that can be leveraged for explaining DNN models trained to classify molecularly-subtyped tumors, exposing histologic features associated with molecular state. Fine-tuning synthetic histology through class and layer blending illustrates nuanced morphologic differences between tumor subtypes. Finally, we demonstrate the use of synthetic histology for augmenting pathologist-in-training education, showing that these intuitive visualizations can reinforce and improve understanding of histologic manifestations of tumor biology.
translated by 谷歌翻译
近年来,薄弱的监督已应用于各种自然语言理解任务。由于技术挑战范围缩小了较弱的长期文档的监督,跨越了数百页,因此在文档理解空间中的应用程序受到限制。在Lexion,我们建立了一个针对长格式(长10-200页)PDF文档量身定制的基于监督的薄弱系统。我们使用此平台来构建数十种语言理解模型,并成功地应用于从商业协议到公司编队文件的各个领域。在本文中,我们在有限的时间,劳动力和培训数据的情况下,通过弱监督进行监督学习的有效性。我们在一周的时间内建立了8个高质量的机器学习模型,借助一小组组成的小组,只有3个注释者与300个文档的数据集一起工作。我们分享有关我们的整体体系结构,如何利用弱监督以及能够实现的结果的一些细节。我们还包括想要尝试替代方法或完善我们的研究人员的数据集。此外,我们阐明了使用PDF格式扫描不良的长格式文档时出现的其他复杂性,以及一些有助于我们在此类数据上实现最新性能的技术。
translated by 谷歌翻译
癌症是全球死亡的主要原因之一。快速安全的早期,术中和术中诊断可以显着有助于成功的癌症识别和治疗。在过去的15年中,人工智能在增强癌症诊断技术方面发挥了越来越多的作用。这篇评论涵盖了在MRI和CT等良好技术中人工智能应用的进步。此外,它显示出高潜力以及基于光谱的方法,这些方法正在开发用于移动,超快速和低侵入性诊断的方法。我将展示基于光谱的方法如何通过使薄薄或甲莫妥蛋白和欧洲蛋白染色过时来减少组织制备进行病理分析的时间。我将介绍用于快速和低侵入性前和体内组织分类的光谱工具的例子,以确定肿瘤及其边界。另外,我将讨论与MRI和CT相反,光谱测量不需要化学剂来提高癌症成像的质量,这有助于开发更安全的诊断方法。总体而言,我们将看到,光谱和人工智能的结合构成了一个非常有前途且快速发展的医疗技术领域,它将很快增加可用的癌症诊断方法。
translated by 谷歌翻译
文本分类在许多真实世界的情况下可能很有用,为最终用户节省了很多时间。但是,构建自定义分类器通常需要编码技能和ML知识,这对许多潜在用户构成了重大障碍。为了提高此障碍,我们介绍了标签侦探,这是一种免费的开源系统,用于标记和创建文本分类器。该系统对于(a)是一个无代码系统是独一无二的分类器在几个小时内,(c)开发用于开发人员进行配置和扩展。通过开放采购标签侦探,我们希望建立一个用户和开发人员社区,以扩大NLP模型的利用率。
translated by 谷歌翻译
本文介绍了由波浪和太阳能运行的低成本无人面车辆(USV)的原型,该车辆可用于最小化海洋数据收集的成本。目前的原型是一个紧凑的USV,长度为1.2米,可以通过两个人部署和恢复。该设计包括电动绞盘,可用于缩回和降低水下单元。设计的几个要素利用添加剂制造和廉价的材料。通过自定义开发的Web应用,可以使用射频(RF)和卫星通信来控制车辆。通过使用先前的研究工作和先进材料的推荐,在拖曳,提升,重量和价格方面进行了优化了表面和水下装置。通过测量几个参数,例如溶解的氧,盐度,温度和pH,USV可用于水状监测。
translated by 谷歌翻译
针对组织病理学图像数据的临床决策支持主要侧重于强烈监督的注释,这提供了直观的解释性,但受专业表现的束缚。在这里,我们提出了一种可解释的癌症复发预测网络(Ecarenet),并表明没有强注释的端到端学习提供最先进的性能,而可以通过注意机制包括可解释性。在前列腺癌生存预测的用例上,使用14,479个图像和仅复发时间作为注释,我们在验证集中达到0.78的累积动态AUC,与专家病理学家(以及在单独测试中的AUC为0.77放)。我们的模型是良好的校准,输出生存曲线以及每位患者的风险分数和群体。利用多实例学习层的注意重量,我们表明恶性斑块对预测的影响较高,从而提供了对预测的直观解释。我们的代码可在www.github.com/imsb-uke/ecarenet上获得。
translated by 谷歌翻译
汽车行业在过去几十年中见证了越来越多的发展程度;从制造手动操作车辆到具有高自动化水平的制造车辆。随着近期人工智能(AI)的发展,汽车公司现在雇用BlackBox AI模型来使车辆能够感知其环境,并使人类少或没有输入的驾驶决策。希望能够在商业规模上部署自治车辆(AV),通过社会接受AV成为至关重要的,并且可能在很大程度上取决于其透明度,可信度和遵守法规的程度。通过为AVS行为的解释提供对这些接受要求的遵守对这些验收要求的评估。因此,解释性被视为AVS的重要要求。 AV应该能够解释他们在他们运作的环境中的“见到”。在本文中,我们对可解释的自动驾驶的现有工作体系进行了全面的调查。首先,我们通过突出显示并强调透明度,问责制和信任的重要性来开放一个解释的动机;并审查与AVS相关的现有法规和标准。其次,我们识别并分类了参与发展,使用和监管的不同利益相关者,并引出了AV的解释要求。第三,我们对以前的工作进行了严格的审查,以解释不同的AV操作(即,感知,本地化,规划,控制和系统管理)。最后,我们确定了相关的挑战并提供建议,例如AV可解释性的概念框架。该调查旨在提供对AVS中解释性感兴趣的研究人员所需的基本知识。
translated by 谷歌翻译
利用启发式来评估收敛性和压缩马尔可夫链蒙特卡罗的输出可以在生产的经验逼近时是次优。通常,许多初始状态归因于“燃烧”并移除,而链条的其余部分是“变薄”,如果还需要压缩。在本文中,我们考虑回顾性地从样本路径中选择固定基数的状态的问题,使得由其经验分布提供的近似接近最佳。提出了一种基于核心稳定性差异的贪婪最小化的新方法,这适用于需要重压力的问题。理论结果保障方法的一致性及其有效性在常微分方程的参数推理的具体背景下证明了该效果。软件可在Python,R和Matlab中的Stein细化包中提供。
translated by 谷歌翻译
Variational inference uses optimization, rather than integration, to approximate the marginal likelihood, and thereby the posterior, in a Bayesian model. Thanks to advances in computational scalability made in the last decade, variational inference is now the preferred choice for many high-dimensional models and large datasets. This tutorial introduces variational inference from the parametric perspective that dominates these recent developments, in contrast to the mean-field perspective commonly found in other introductory texts.
translated by 谷歌翻译